1
Сравнение парадигм использования данных: спектр меток
EvoClass-AI003Lecture 10
00:00

Сравнение парадигм использования данных: спектр меток

Успешная реализация моделей машинного обучения в значительной степени зависит от доступности, качества и стоимости размеченных данных. В условиях, когда ручная разметка является дорогостоящей, невозможной или требует высокой квалификации, стандартные подходы становятся неэффективными или полностью терпят неудачу. Мы вводим спектр меток, выделяя три основных подхода в зависимости от того, как они используют информацию: Обучение с учителем (SL), Обучение без учителя (UL), а также Полуобучение (SSL).

1. Обучение с учителем (SL): высокая точность, высокая стоимость

SL работает с наборами данных, где каждый вход $X$ явно сопоставлен с известным истинным значением метки $Y$. Хотя этот подход обычно обеспечивает наивысшую предиктивную точность для задач классификации или регрессии, его зависимость от плотной и качественной разметки требует значительных ресурсов. Производительность резко падает при недостатке размеченных примеров, что делает этот подход хрупким и часто экономически неприемлемым для масштабных, динамично изменяющихся наборов данных.

2. Обучение без учителя (UL): обнаружение скрытых структур

UL работает исключительно с неразмеченными данными, $D = \{X_1, X_2, ..., X_n\}$. Его цель — выявить внутренние структуры, базовые распределения вероятностей, плотности или значимые представления внутри многообразия данных. Ключевые применения включают кластеризацию, обучение многообразию и построение представлений. UL чрезвычайно эффективен для предварительной обработки и извлечения признаков, предоставляя ценные инсайты без зависимости от внешнего человеческого вмешательства.

Question 1
Which learning paradigm is designed specifically to mitigate high reliance on expensive human data annotation by utilizing abundant unlabeled data?
Supervised Learning
Unsupervised Learning
Semi-Supervised Learning
Reinforcement Learning
Question 2
If a model's primary task is dimensionality reduction (e.g., finding the principal components) or clustering, which paradigm is universally employed?
Supervised Learning
Semi-Supervised Learning
Unsupervised Learning
Transfer Learning
Challenge: Defining the SSL Objective
Conceptualizing the Combined Loss Function
Unlike SL, which optimizes solely based on labeled fidelity, SSL requires a balanced optimization strategy. The total loss must capture prediction accuracy on the labeled set while enforcing consistency (e.g., smoothness or low density separation) across the unlabeled set.

Given: $D_L$: Labeled Data. $D_U$: Unlabeled Data. $\mathcal{L}_{SL}$: Supervised Loss function. $\mathcal{L}_{Consistency}$: Loss enforcing prediction smoothness on $D_U$.
Step 1
Write the general form of the total optimization objective $\mathcal{L}_{SSL}$, incorporating a weighting coefficient $\lambda$ for the unlabeled consistency component.
Solution:
The conceptual form of the total SSL loss is a weighted sum of the two components: $\mathcal{L}_{SSL} = \mathcal{L}_{SL}(D_L) + \lambda \cdot \mathcal{L}_{Consistency}(D_U)$. The scalar $\lambda$ controls the trade-off between label fidelity and structure reliance.